RAG & LLMs : Crée ton bot qui répond à tes issues GitHub
dans Bloc-notesPar Quentin, organisé par CourtBouillon, Stella et l'AFPy. (via Meetup).
Et si un bot pouvait gérer vos issues GitHub à votre place ? Découvrez comment utiliser les modèles de langage (LLMs) et les systèmes Retrieval-Augmented Generation (RAG) pour construire un bot intelligent qui puise dans les infos de votre repo et génère des réponses précises. Petit tour des différents frameworks, techniques et possibilités pour simplifier la gestion de vos projets GitHub !
Notes personnelles :
- ajout de connaissance a un LLM
- a l'entraînement (cher coûteux complexe)
- faire un re-entraînement (un peu moins cher coûteux complexe)
- a l'appel du modelé (RAG)
- Retrieval Augmented Generation (RAG)
- c'est rajouter du contexte au prompt
- c'est quoi un "float" ?
- outillage; langchain et modèle lama
- fonction calling (nouveau standard)
- passe une fonction et le LLM décide si elle doit être exécuter
- Méthode
- vectoriser les données existante (embeding)
- vidéo chaîne "science étonnante" sur le NLP qui démontre la proximité forte entre loup et chien contrairement a loup chat